« L’Union européenne a beaucoup à gagner en élaborant un cadre pour l’utilisation de l’IA »


Dans le contexte géopolitique actuel tendu, la guerre technologique fait rage. « Ceux qui maîtriseront l’intelligence artificielle seront les maîtres du futur », a déclaré le président russe, Vladimir Poutine, à Iaroslavl, devant un parterre d’étudiants, en 2017. La course à des systèmes de plus en plus performants est également un moteur d’accélération des capacités et de prise de pouvoir sur l’information.

Les enjeux d’augmentation des infox sont apparus au grand jour avec le déploiement de systèmes d’intelligence artificielle (IA) générative comme Dall-E, StableDiffusion pour les images et les vidéos et ChatGPT, qui utilise des modèles de langue d’OpenAI. Le robot conversationnel ChatGPT est certes capable de produire des dissertations et des synthèses utiles, mais il est impossible d’en connaître les sources, ni de mesurer l’influence de la langue anglaise dominante dans ces modèles. ChatGPT a donc provoqué des engouements et des peurs dans le grand public, avec des questions comme : « Faut-il l’interdire à l’école ? » ; « Va-t-il prendre mon emploi ? » ou encore « Pourrai-je m’en passer ? ».

Pour ces énormes modèles, l’Europe entend proposer une responsabilité conjointe entre les fabricants des modèles qui les mettent sur le marché ou qui les publient en libre accès, ceux qui les déploient et ceux qui les utilisent. Ce qui n’est pas l’idée des géants du numérique américains, qui souhaitent plutôt faire porter la responsabilité sur les utilisateurs. Les technologues de la Silicon Valley, Elon Musk, Sam Altman, cofondateur d’OpenAI, et bien d’autres sont aussi des idéologues avec une vision politique mondiale. Les Etats-Unis, comme d’ailleurs la Chine, appellent à des normes dans cette course pour dominer le paysage technologique, tout en stimulant l’innovation, garante de puissance.

Trois niveaux de risque

L’Union européenne a beaucoup à gagner en élaborant un cadre pour l’utilisation de
l’IA qui soit associé à la confiance et au respect des droits humains et de l’Etat de droit. L’AI Act (pour Artificial Intelligence Act) se concentre sur l’identification des applications considérées comme présentant un risque et nécessitant par conséquent une réglementation.

Trois niveaux différents de risque (inacceptable, haut, modéré) attirent des actions différentes. Les applications présentant un risque inacceptable sont interdites, par exemple les « techniques subliminales » manipulatrices exploitant des groupes vulnérables spécifiques ou qui sont utilisées par les pouvoirs publics à des fins d’évaluation sociale, comme en Chine. Les applications à haut risque seront étroitement réglementées. Il est
souhaitable que ce soit avec un niveau de spécificités important pour préserver les applications utiles. Par exemple, la reconnaissance faciale est un danger si on l’utilise pour surveiller la population, mais elle s’avère être un outil très utile pour le suivi de pathologies chez des malades. L’AI Act propose donc d’offrir une protection. Il impose notamment « des obligations à certains systèmes d’IA en raison des risques spécifiques qu’ils présentent » pour les algorithmes qui interagissent avec des humains.

Il vous reste 49.32% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.